|
13.02.2026
15:00 Uhr
|
Selbst News-Profis fallen schon mal auf KI-Manipulationen herein oder produzieren um Inhalte selbst mit KI. Das untergräbt die Glaubwürdigkeit von Journalismus.

Am 3. Januar 2026 nahmen US-Spezialeinheiten den venezolanischen Machthaber Nicolás Maduro fest. Noch bevor offizielle Aufnahmen existierten, fluteten KI-generierte Bilder die sozialen Medien. Einige davon erschienen in etablierten Zeitungen. Mehrere Zeitungen der Funke-Mediengruppe veröffentlichten ein Bild von Maduro in einem blutverschmierten Hemd. Darunter befanden sich die „Berliner Morgenpost“, die „Westfalenpost“, die „Thüringer Allgemeine“ und das „Hamburger Abendblatt“.
Die Nachrichtenagentur AFP hat das Bild in einem Faktencheck als Fake enttarnt. Es zeige visuelle Unstimmigkeiten. So stelle das Bild eine Narbe auf Maduros Stirn ausgeprägter dar, als sie tatsächlich ist. Das KI-Erkennungstool InVID WeVerify gab zudem mit einer Wahrscheinlichkeit von 84 Prozent an, dass eine KI das Bild generiert habe.
Dieses Bild ist nur ein Beispiel für mit KI erzeugte Fake News, die fälschlicherweise in seriösen Medien veröffentlicht wurden. Mitunter nutzen Journalisten sogar selbst KI, um Inhalte zu produzieren. Dieser Artikel erklärt, warum KI-Manipulationen sowie der sorglose Umgang mit KI, um schnell und billig aufmerksamkeitsheischende Beiträge zu produzieren, Schaden anrichten. Und er zeigt, wie Redaktionen, Gesetzgeber und Jedermann sich angesichts einer Schwemme von KI-Inhalten wappnen können.